Deepnude e Chatbots “Empáticos”: A Inteligência Artificial é a Nova Fronteira da Pornografia Infantil


A inteligência artificial é a nova fronteira para os pedófilos
A nova fronteira da pornografia infantil é a inteligência artificial . Isso foi denunciado por Dom Fortunato Di Noto, padre e fundador da Associação Meter ETS , que luta contra o abuso infantil há mais de trinta anos. Há dois dias, em Roma, a Associação apresentou o primeiro dossiê italiano inteiramente dedicado ao impacto da IA no abuso online : chatbots, deepfakes e pornografia infantil virtual.
O Dossiê do MedidorCom o relatório, Don Di Noto e a Associação também oferecem sua contribuição ao trabalho do Papa Leão XIV, que anunciou uma encíclica sobre Inteligência Artificial . O risco – sublinha o dossiê – é a normalização do abuso: se a imagem é gerada por computador, portanto as vítimas não são físicas, então não é mais um crime. E, em vez disso, é. O problema é como identificá-lo e processá-lo. A lei italiana, até o momento, equipara a pornografia infantil virtual à pornografia infantil real. Mas – sublinha Di Noto – falta eficácia: a aplicação da lei luta para intervir a tempo e o material permanece em circulação. Ferramentas mais incisivas, regulamentações atualizadas e treinamento constante são necessários : "Um passo crucial é a colaboração entre governos e empresas de tecnologia para desenvolver uma IA ética capaz de prevenir e bloquear a produção de pornografia infantil e material de nudez profunda".
A ameaça, denuncia a Associação, é dupla: a velocidade com que esses conteúdos são produzidos, criptografados e compartilhados, e a falta de ferramentas regulatórias adequadas. As plataformas mais utilizadas para a disseminação de material são Signal (8 casos em 10), Telegram, Viber, WhatsApp e Instagram. Frequentemente, canais privados, criptografados, difíceis de monitorar e bloquear.
Como a inteligência artificial funciona a serviço do abuso?Mas como exatamente a Inteligência Artificial atua a serviço do abuso? Por meio de chatbots: programas capazes de simular conversas complexas, com as quais a isca não precisa mais se expor ou fazer qualquer esforço. De fato, a isca é cuidada, desde a primeira abordagem, por esses programas, capazes de reconhecer palavras-chave, responder com empatia e preparar o terreno para a troca de material íntimo. O próximo passo é a manipulação de imagens: a partir de fotos tiradas em contextos cotidianos – esportes, escola, jogos – a IA gera deepnudes, imagens ou vídeos falsos, mas realistas, nos quais o menor aparece nu ou sexualizado. Cerca de 10% dos grupos monitorados online solicitaram a produção de deepfakes, enquanto 20% os geram a partir de imagens inocentes.
Imagens falsas, sim, mas com consequências reais. Os dados do Observatório Global de Luta contra a Pedofilia (OSMOCOP), criado pelo próprio Meter, são alarmantes: só nos primeiros seis meses de 2025, quase 3.000 menores foram parar em conteúdo de pornografia infantil deepfake. Um problema urgente. Com o Dossiê, o Mater quer "denunciar e levantar uma posição firme da sociedade, da política e da igreja". Mais de 60% dos adolescentes conhecem deepnudes , mas mais da metade não consegue distingui-los de conteúdo real. Os dados mais significativos e promissores, no entanto, dizem respeito à percepção de risco: 9 em cada 10 adolescentes acreditam que a disseminação de conteúdo deepfake é um perigo concreto, e quase 7 em cada 10 estariam dispostos a denunciá-lo.
© Reprodução reservada
Tags de artigo
Inteligência artificialLuce